Deep Fusion是由
苹果公司为
iPhone 11系列开发的图像处理系统,首次搭载于iOS 13.2系统。该系统通过A13仿生芯片的神经引擎,在拍摄时自动捕捉多张不同曝光的图像,经机器学习分析合成后生成高细节、低噪点的照片。功能适用范围为中低光环境,且仅在广角及长焦镜头下自动触发,不支持超广角镜头与视频拍摄。作为无用户界面的后台技术,Deep Fusion无需手动干预即可显著提升纹理质感,尤其在动物毛发、织物纹理等细节场景中表现突出。
Deep Fusion的工作原理分为三个阶段:拍摄阶段捕捉9张照片(包括4张短曝光、4张常规曝光及1张长曝光),利用A13仿生芯片的神经网络引擎进行像素级比对,保留每张照片最优部分后进行合成。该功能专为中低光环境设计,根据光线条件自动切换三种拍照模式:智能HDR(明亮至中光)、Deep Fusion(中至低光)和夜间模式(暗场景)。最终输出2400万像素照片,通过机器学习优化纹理、细节与噪点控制。
长焦镜头(1倍焦距以上)。光线条件方面,
广角镜头在中低光环境触发,而长焦镜头在多数情况下启用,仅强光时切换至智能HDR。
2019年实拍测试显示,开启Deep Fusion后照片细节提升明显,织物纹理与动物毛发的呈现效果尤为显著。2021年测试数据显示,室内及中等光照条件下,Deep Fusion相比传统HDR模式在噪点控制方面有显著提升。